Yann Diener: "De rage rond deze AI's zegt eigenlijk veel over de moeite die we hebben om met elkaar te praten"
%3Aquality(70)%3Afocal(1319x611%3A1329x621)%2Fcloudfront-eu-central-1.images.arcpublishing.com%2Fliberation%2FPJFGAY3CW5GSNFGC2KN7RNSWQU.jpg&w=1280&q=100)
Halverwege de jaren 60 nam de eerste chatbot de vorm aan van een psycholoog! In die tijd begonnen computertechnici programma's te ontwerpen die konden reageren, zoals bij schaakpartijen. Ze bedachten ook robots die op een mens konden reageren. Het eerste conversatieprogramma heet Eliza, gemodelleerd naar de Amerikaanse psycholoog Carl Rogers, en staat bekend om het herformuleren van vragen – als een karikatuur van een psycholoog. Dus werd Eliza een vraag gesteld, en ze antwoordde: "Denk je echt dat je advies nodig hebt over dit onderwerp?" Tegenwoordig is het tegenovergestelde het geval: AI's geven antwoorden, op een geleerde en geruststellende toon, zelfs als de antwoorden niet altijd gedocumenteerd zijn, noch echt accuraat. Misschien is dit wat fans van AI-gesprekken aanspreekt. Waar het om gaat, is die geruststellende toon van "Ik weet hoe ik moet antwoorden." En antwoorden hebben in een steeds onzekerdere wereld. Wij mensen verlangen hier enorm naar.
We bouwden deze machines op basis van wat Alan Turing had bedacht. Tegenwoordig zou deze pionier van kunstmatige intelligentie worden gecategoriseerd als iemand met autisme (Asperger). Op twaalfjarige leeftijd vertrouwde hij zichzelf in brieven toe dat hij zich erg ongemakkelijk voelde bij het spreken. Zijn leraren verweten hem dat en hij verklaarde aan zijn schoolvriend: "Ik ga een machine uitvinden die mijn woordvoerder zal zijn." En die creëert, op een zeer rigide manier, met de nul en de één, de binaire computercodering.
Libération